Home Contents News Mail How to get to us Info about the group Ak Chemometrik Graduiertenkolleg Lehre Internals(file///k|/ak/homepage/index.html)
1. Einleitung
5. Zusammenfassung und Ausblick
Bitte beachten Sie auch die zugehörige Slideshow
(Vortrag zur Diplomarbeit)
D
ie steigende Bedeutung der Umweltanalytik weckt einen Bedarf nach einfach einsetzbaren und billigen Sensoren, z. B. zur Feststellung der Gewässerbelastung oder im Fabrikbereich zur Sicherstellung der Einhaltung von MAK-Werten. Einer Feststellung auffällig hoher Werte mit diesen Sensoren kann eine eingehende Untersuchung im Labor folgen.
I n dieser Arbeit sollen zwei unterschiedliche Meßverfahren untersucht werden:
B
eiden Verfahren gemeinsam ist das verwendete optische Meßverfahren, die Reflektometrische-Interferenz-Spektometrie. Hierbei wird Licht mittels eines Leiters auf einen beschichteten Glasträger gestrahlt und die bei Schichtdickenänderung auftretende Interferenz gemessen.
M
it Hilfe einer Kalibriermessung wird ein Zusammenhang (eine Abbildung) zwischen den gemessenen Sensorsignalen und den Konzentrationen der untersuchten Stoffe hergestellt. Bisher übliche Kalibrierungsverfahren in der Chemie sind die lineare und nichtlineare Regression. Eine qualitative Beurteilung der Sensoraktivität erfolgt mit der Hauptkomponentenanalyse. Diese Verfahren sind modellbehaftet, vor ihrer Anwendung muß also eine mehr oder weniger passende Vorstellung über einen möglichen Zusammenhang vorhanden sein.
I
m Gegensatz dazu stehen modellfreie Verfahren, wie z. B. die in dieser Arbeit untersuchten neuronalen Netze. Ein Vorwissen über die Form der gesuchten Kalibrierkurve ist hier nicht nötig. Untersucht wurden feed-forward-Netze (Multilayer Perceptrons) und Radiale-Basisfunktionen-Netze. Bei den feed-forward-Netzen spielt die Topologie eine entscheidende Rolle, da mit ihr die Anzahl der freien Parameter des Netzes vorgegeben wird. Eine Bestimmung der Topologie erfolgt in dieser Arbeit mit Verfahren zum Verkleinern von vorgegebenen Netzen (Pruning) und Methoden zum Aufbau von Netzen (Cascade Correlation, Greedy-Verfahren)
Z
ur Untersuchung eines Multianalytgemisches muß bei beiden Verfahren mit einer Anzahl Sensoren mit unterschiedlichen Eigenschaften, einem Sensorarray, gemessen werden. Die so erhaltene Information weist im Falle der polymerbasierten Sensoren einen hohen Grad an Redundanz auf. Eine Selektion der wichtigsten Sensoren ist daher wünschenswert (partial modelling). Der Einfluß des stets auftretenden Meßfehlers (Rauschen) kann dadurch gemildert werden.
F
ür den Chemiker wichtig ist eine Vorstellung des Zusammenhangs zwischen Meßsignalen und Analytkonzentrationen. Bei den polymerbasierten Sensoren kann in gewissen Bereichen von einer annähernd linearen Beziehung ausgegangen werden. Der bei den Immunoassays beobachtbare nichtlineare Zusammenhang kann durch eine Formel beschrieben werden, wobei bei einer schwachen Analyt-Antikörper-Bindung ein Korrekturterm eingeführt werden muß.
Die Konstanten dieses Korrekturterms konnten bisher für den Fall eines Multianalytgemisches nicht bestimmt werden. Dies wurde mit Hilfe von genetischen Algorithmen bzw. Evolutionsstrategien versucht.
Z
ur Vereinfachung der Berechnungen wurden zwei größere Programme implementiert. Das eine ist eine Erweiterung der Skriptsprache Tcl um SNNS-Befehle im Stile der zum SNNS-Programmpaket gehörenden Skriptsprache Batchman. Beim anderen handelt es sich um ein systemunabhängiges Programm, mit der die notwendige Vorverarbeitung, das Starten von Batchläufen, sowie die Auswertung und Archivierung der erhaltenen Ergebnisse erledigt werden kann. Es ist ausgerichtet auf die Bedürfnisse der Chemie, kann aber auch in anderen Bereichen eingesetzt werden. Mit der einfach gehaltenen und relativ komfortablen Benutzeroberfläche sollte auch Chemikern die Verwendung Neuronaler Netze ohne große Einarbeitung ermöglicht werden.
I
n diesem Abschnitt sollen die Ergebnisse zu den beiden betrachteten Meßverfahren und die Eigenschaften der implementierten Software noch einmal zusammengefaßt werden. Ausblicke auf sich anbietende Verbesserungen und mögliche zukünftige Einsatzgebiete werden gegeben.
M
it Feedforward-Netzen konnten auch im Fall annähernd linearer Kalibrierkurven gegenüber linearen Regressionsmethoden noch leichte Verbesserungen erzielt werden. Zudem ist eine Optimierung des relativen Fehlers, welche für die Herabsetzung der Nachweisgrenze eines Sensors wünschenswert ist, in diesen Fällen möglich. Bei durch Erreichen des Sättigungsbereiches oder durch Querempfindlichkeiten auftretenden Nichtlinearitäten ergab sich mit Hilfe der Feedforward-Netze ein deutlich besseres Ergebnis, als durch nichtlineare Regressionsverfahren erzielt werden konnte.
D
ie Auswahl eines Minimalsatzes an Sensoren ist über Netzverkleinerungsmethoden (Pruning) oder durch Aufbau eines Netzes (Greedy) möglich. Die Pruning-Methoden lieferten gute Ergebnisse, wobei sich das einfache Magnitude Based Pruning in der Praxis am besten bewährt hat. Die Plausibilität der erhaltenen Sensorsätze konnte mit einer Hauptkomponentenanalyse bestätigt werden. Die Reproduzierbarkeit stellt bei größeren Datensätzen allerdings noch ein Problem dar. Eine in der einen Versuchsreihe favorisierte Auswahl kann in der nächsten überhaupt nicht auftauchen oder schlechtere Ergebnisse liefern. Der Aufwand der Pruning-Verfahren könnte durch eine geeignete Bestimmung des "genügend groß" zu wählenden Ausgangsnetzes weiter reduziert werden, z. B. durch ein einfaches Aufbauverfahren, welches sukzessive vollverdrahtete versteckte Neuronen hinzufügt und abbricht, wenn sich das Lernergebnis (oder das Validierungsergebnis) nicht mehr signifikant verbessert.
H
ier bietet das prinzipiell sehr aufwendige Greedy-Verfahren einen Vorteil. Dadurch, daß die zufällige initiale Belegung der Gewichte bei sehr kleinen Netzen einen geringeren Einfluß auf das Ergebnis hat als bei großen, ist zumindest die Anfangsphase sehr gut reproduzierbar. Der Aufwand des ursprünglich verwendeten Verfahrens steigt mit der Anzahl der Eingabequellen quadratisch an. Durch eine Modizierung der eingefügten Elemente konnte der Aufwand linearisiert werden, wodurch sich das Lernergebnis allerdings etwas verschlechtert und nicht immer eine optimale Auswahl getroffen wird. Durch Einführung geeigneter Abbruchkriterien konnte der Aufwand weiter gesenkt werden, liegt aber immer noch deutlich über dem der Pruning-Verfahren.
C
ascade-Correlation ohne Pruning lieferte deutlich schlechtere Ergebnisse bei der Kreuzvalidierung als die anderen Verfahren. Die Pruned-Cascade-Correlation-Verfahren konnten aufgrund von Programmabstürzen nicht genügend betrachtet werden. Hier ist auf eine Beseitigung dieses Fehlers bei einer der folgenden SNNS-Versionen zu hoffen.
Radiale-Basis-Netze lieferten gute Trainings- und Validierungsergebnisse, der Rechenaufwand lag allerdings deutlich höher als bei Feedforward-Netzen.
B
edingt durch das aufwendige Meßverfahren und die erst im Entstehen begriffene Automatisierung lag leider nur ein Datensatz mit wenigen, zum Teil stark fehlerbehafteten Werten vor. Die hier erhaltenen Ergebnisse haben deshalb einen etwas vorläufigen Charakter und bedürfen einer Nachprüfung, sobald einmal größere Datensätze vorliegen.
Mit den verwendeten Neuronalen Netzen konnte keine bessere Konzentrationsvorhersage als mit der bisher standardmäßig eingesetzten modellbehafteten Regression erhalten werden. Dies kann durch eine weitgehend zutreffende Modellvorstellung, aber auch durch den teilweise sehr großen Meßfehler bedingt sein.
Die Bestimmung der Korrekturkonstanten im erweiterten Modell führte zu eher guten Ergebnissen. Die berechneten Bindungs- und Dissoziationskonstanten lagen überwiegend in plausiblen Bereichen. Zwei der insgesamt 18 berechneten Werte sind durch die Theorie allerdings nicht erklärbar und bedürfen weiterer Betrachtung, möglichst anhand größerer Datensätze. Zudem trat teilweise eine Verschlechterung der Ergebnisse auf dem Testdatensatz auf. Mögliche Erklärungen dafür sind im Text gegeben.
Nemo als sicher bedienbares Werkzeug für Laien
I
n vielen wissenschaftlichen und industriellen Arbeitsgebieten fallen aufgrund zunehmender Automatisierung ständig große Datenmengen an. Die dort arbeitenden Menschen sind zwar Experten auf ihrem Arbeitsgebiet, in Bezug auf Neuronale Netze (NN) aber in der Regel Laien. Durch fehlende Erfahrung im Umgang mit NN und geringe Kenntnisse über die Funktions-weise der einzelnen Verfahren wird selbst die Anwendung eines frei erhältlichen, umfang-reichen, aber eine gewisse Einarbeitung erfordernden Programmpakets wie SNNS schwierig.
Hier bietet sich eine Zusammenarbeit mit Informatikern an. Diese können aber schon aus Zeitgründen nicht jeden Datensatz einzeln untersuchen. Anhand einer "typischen" Auswahl von Datensätzen kann jedoch eine geeignete Methode gefunden bzw. entwickelt werden, welche dann dem Laien für zukünftig anfallende Datensätze zur Verfügung gestellt wird. Hier könnte Nemo als einfach zu bedienende und skalierbare Benutzeroberfläche zum Einsatz kommen1.
Z
u Bedenken ist, daß sich die Art der Datensätze im Laufe der Zeit unbemerkt ändern kann. Auch können in den Datensätzen sogenannte "Ausreißer" oder fehlende Werte auftreten. Der Anwender benötigt daher eine Möglichkeit, die Qualität der vom NN berechneten Ergebnisse einschätzen zu können. Er muß mit Hilfe des Programms in der Lage sein, Ausreißer zu erkennen und eventuell aus dem Datensatz zu entfernen.
W
ährend die Bewertung des Lernerfolgs schon jetzt auch bei kleinen Datensätzen mit Hilfe der Kreuzvalidierung möglich ist, muß ein Ausreißertest erst noch erarbeitet werden. Hierzu kann z. B. ein Grenzwert für einen maximal zulässigen Kreuzvalidierungsfehler bestimmt werden. Allerdings kann ein
Überschreiten dieses Grenzwerts auch bedeuten, daß der Meßdatenraum im Bereich des auffälligen Samples durch den Trainingsdatensatz zu wenig abgedeckt ist. Eine Warnung des Benutzers ist aber auch in diesem Fall sinnvoll2.
Nemo als Lernsoftware
G
egen die Verwendung von Nemo als Lernsoftware spricht die bisherige Ausrichtung des Programms auf den Batch-Modus. Lernen sollte in direkter Interaktion erfolgen, der Schüler / Praktikant sollte nicht lange auf das Ergebnis warten müssen, sondern sofort die Auswirkungen seiner Eingaben beobachten können. In SNNS ist dies z. B. durch Beobachten der Lernkurve oder durch "Übereinanderlegen" mehrerer Lernkurven und Vergleich möglich. Durch die Verwendung leistungsfähiger Toolboxen sollte es aber leicht möglich sein, solche Optionen auch in Nemo einzubauen.
F
ür Nemo spricht hier wieder die einfache Konfigurierbarkeit, durch die z.B. fortgeschrittene Methoden erstmal ausgeblendet werden können. Die Benutzerführung ist im Vergleich zu SNNS deutlich komfortabler (durchgehende Beschriftung der Eingabefelder, Default-Werte und Popup-Hilfefenster).
Nemo und das Internet
D
as Ausführen von Tcl/Tk-Programmen über das Internet ist möglich mit Hilfe von Tcl-Plugins. In Anlehnung an die Java Applets werden diese Programme Tclets (sprich: ticklets) genannt. Ein Problem der seit Anfang Oktober '96 vorliegenden Version 1.0 des Tcl-Plugings ist die fehlende Verwendbarkeit von Erweiterungspaketen (Toolboxen).
Da Nemo die Tix-Erweiterung und natürlich batchTcl, die Anbindung an SNNS, verwendet, ist es bisher nicht über das Internet lauffähig. Laut der auf der Tcl-Homepage erhältlichen Informationen ist für die in einigen Monaten erscheinende Version 2.0 eine Unterstützung von dynamic link librarys vorgesehen, wodurch Erweiterungspakete verwendbar werden.